#AI 發展
《馬尾藻公害變綠能!台灣綠能國家隊將助友邦貝里斯「點害成金」》面對加勒比海地區日益嚴峻的馬尾藻(Sargassum)擱淺與腐敗問題,海洋福星生物科技股份有限公司今(4)日與貝里斯大使館、台灣金屬工業研究發展中心(MIRDC)共同舉辦「貝里斯馬尾藻資源化暨人才培育策略合作—合作意向書簽署暨聯合記者會」,三方並正式簽署合作意向書(LOI),宣示啟動「落地發電示範|社區分潤共益|實習與就業銜接」三大合作主軸,推進馬尾藻資源化發電專案與跨國綠能人才培育落地。這也是全球首創將馬尾藻轉化為發電燃料的綠能計畫案。馬尾藻對台灣人並不陌生——它常被視為餐桌上的「海味來源」,用來提鮮、入菜,許多人吃過卻未必叫得出名字。但同樣的藻類,一旦在海邊「暴量上岸」,就會瞬間從海鮮配角變成沿岸災情:堆積、腐敗、發臭,清運成本節節攀升,觀光與漁港作業首當其衝,連沿海居民的日常生活也被迫跟著受影響。對貝里斯等加勒比海國家而言,這已不是偶發事件,而是年年重演、難以承受的長期公害。如今,這個看似無解的僵局,出現一條新的出口。台灣團隊提出的思路相當直接:既然清不完,就把它當成原料——把原本要花錢處理的擱淺馬尾藻,轉化為生質能源,再進一步用於發電。換句話說,公害不再只是支出項目,而可能被重新定義為綠能與電力韌性的一部分:一方面減輕沿岸清運壓力,一方面把海灘上的負擔,轉成看得見、用得上的能源供給。這項合作4日在台北正式對外說明並完成合作意向簽署。貝里斯大使館、金屬工業研究發展中心與台灣企業海洋福星生物科技股份有限公司等單位共同出席簽署合作意向,後續將以馬尾藻資源化、示範應用與人才培育等方向持續推進。對貝里斯而言,這不只是「把藻清掉」;對台灣而言,也不只是一次技術輸出。若示範能真正落地,馬尾藻從公害翻身成綠能的故事,將不僅改善在地生活與能源條件,也可能成為更務實的邦誼模範——用可運作的方案解決問題,用可持續的合作把關係做深。海洋福星近期方榮獲《商業周刊》「AI 創新百強」節能減碳類金質獎肯定。海洋福星表示,這次與友邦貝里斯合作的核心,正是以 AIoT 串聯「燃料端—設備端—營運端」,將環境負擔轉化為可持續運轉的綠電與碳管理方案,並結合金屬工業研究發展中心把「技術輸出」與「人才培育」同步落地,形成可複製、可擴散的國際合作模式。金屬中心本為我國整廠輸出重要推動法人單位,基於木質顆粒能源整廠輸出等實務經驗,進行貝里斯馬尾藻廢轉能可行性評估,篩選國內已具備前端處理、生質發電作業、燃料棒產出及製程監控等關鍵技術之潛力輸出業者海洋福星生物科技,並藉由本案推動產學合作培訓貝國學生,同時積極爭取外交體系及中美洲銀行(CABEI)等單位資源,促進雙邊合作及輸出效能。根據合作規劃,專案將以「去化—再利用—加值」三段式治理模式推進:前端蒐集與前處理;中段燃料棒化與氣化發電;後端串接生物碳與碳管理(MRV)資料體系。系統採撬裝模組化設計,便於跨海運輸與快速部署,可先以 100kW 作為示範場域最小可行規模,並依料源與負載需求逐步擴充至 MW 兆瓦級,支援 24 小時全天候排程發電之再生能源基載應用;亦可結合儲能形成區域微電網,優先支援關鍵基礎設施的韌性供電需求。在社會共益面向,專案導入「社區參與並分潤」機制:由當地社區團體參與馬尾藻清運與供料,綠電收益將依供料量定期回饋社區,協助建立長期治理與就業機會,提升社區經濟韌性。海洋福星強調,唯有把治理效益回饋在地、讓社區成為合作夥伴,才能讓清運落實為長期可持續的產業模式。本次合作另一亮點為人才培育。三方將共同建立「在台就學、在台培訓(台企實習)、返國就業」的人才通道,對接外交部臺灣獎學金、國合會獎學金與教育部臺灣獎學金等既有機制,並由金屬工業研究發展中心等單位提供實習與實作培訓。未來表現優秀的貝里斯獎學金學生,將有機會銜接海洋福星於貝里斯之營運據點任職,形成「教育—產業—就業」一條龍的友邦綠能人才循環。海洋福星指出,本案以友邦在地需求為起點,結合台灣新創企業、國家級研發法人與駐外外交體系,兼顧能源韌性、環境治理、社區共益與青年培育,是「經濟外交+永續外交+人才外交」的具體示範。海洋福星也表示,期待外交部在林佳龍部長所倡議的總合外交與經濟外交方向下,持續支持更多台灣產學研與企業以公私協力模式走進友邦,讓世界看見台灣不只提出倡議,更能提供「可落地、可衡量、可擴散」的解決方案。
中國AI,最新趨勢來了!
新華深讀|2026年中國AI發展趨勢前瞻人工智慧(AI)企業數量超過6000家,AI核心產業規模預計突破1.2兆元,同比增長近30%;中國國產開源大模型全球累計下載量突破100億次;中國成為AI專利最大擁有國,在全球佔比達60%;這些資料勾勒出2025年中國AI發展的圖景。一邊是AI技術突破,走出一條不同於美國矽谷的“開源創新”之路,另一邊是AI與經濟社會的融合由淺入深。1月以來,智譜、天數智芯、MiniMax等中國AI企業扎堆上市。本月由清華大學主辦的“AGI-Next”峰會上,行業專家形成共識:以對話為核心的“Chat”範式已告終結,AI競爭轉向“能辦事”的智能體時代。2026年是“十五五”開局之年。根據“十五五”規劃建議,中國將加強人工智慧同產業發展、文化建設、民生保障、社會治理相結合,全方位賦能千行百業。新華社記者採訪相關部委負責人、行業專家、企業代表、創業者等,前瞻AI發展新趨勢。技術範式:AI從“聊天”走向“做事”1月,DeepSeek連發兩篇梁文鋒參與署名的論文,再次將這家AI企業推到聚光燈下。論文的核心貢獻,是試圖解決訓練大模型時遇到的記憶體瓶頸和穩定性難題。業界評價,新一代大模型模樣更清晰了。DeepSeek的一舉一動備受關注。一年前,其發佈的中國國產大模型DeepSeek-R1給全球AI行業帶來巨震。“DeepSeek標誌著中國AI技術路線分化突破的出現。”清華大學智能產業研究院創始院長張亞勤說,“中國轉向擁抱更輕的模型、更聰明的架構、更高的效率和更低的價格。”眼下,AI發展正沿兩條主線並進:技術向上衝刺,尋求突破認知與協同的侷限;應用向下紮根,解決真實痛點。“向上衝刺”,就是尋求“更聰明”的演算法和架構,不僅提升單一模型的性能,創新突破也更聚焦提升智能密度。密度法則,是指用更少的計算和資料,更高效地得到更多智能。中國AI公司面壁智能聯合清華大學團隊發表論文《大模型的密度法則》,對大模型的進化方向作出判斷:AI將在能力和成本兩個方向同時進化,提升效率同樣是主線。從“拼規模”轉向“拼密度”,精煉高效成為大模型演進的核心邏輯之一。中國資訊通訊研究院副院長魏亮認為,行業已不再單純依靠提升參數規模實現性能突破,精細化機制、演算法架構、訓練方法的最佳化成為主要提升方向。中國信通院發佈的《人工智慧產業發展研究報告》指出,在演算法架構方面,以DeepSeek的NSA、月之暗面的MoBA等為代表的稀疏注意力機制,成為提升模型推理效率的重要技術路徑之一。通俗的解釋是,想像你坐在一個萬人大禮堂,注意力機制從傳統的“聽每一個人說話”提升為如今“聽關鍵人物發言”。大模型本質上是通過海量資料歸納語言規律,訓練出特定的識別模式,掌握預測文字的能力。就像孩子雖沒有理解詩歌,卻能通過反覆朗誦背出《靜夜思》。回顧本輪AI浪潮,演算法架構和算力、資料一樣,是智能湧現的重要條件。張亞勤說:“規模定律並未失效,我們仍需要算力和資料作為基座。”不過他也指出,堆算力的邊際效益趨於平緩。業內人士認為,演算法架構革新將是AI未來發展的突破點。當模型“智力密度”持續提升,讓前沿智能“向下紮根”、變得“更能幹”,就成為行業要面對的命題。“幾十年來,AI主要關注開發新的訓練方法和模型。”曾擔任OpenAI研究員、後出任騰訊總裁辦公室首席AI科學家的姚順雨認為,在AI競爭的下一個階段,為誰解決什麼問題成為關鍵。“騰訊已把自研大模型在內部超過900個場景和應用落地,核心思路是把AI深度融入場景,讓好用的AI成為普惠生產力。”騰訊相關負責人表示,全球具備大模型底座研發實力的廠商已逐步收攏,高品質的資料、廣泛的生態和場景,將成為拉開競爭差距的重要因素。各大廠商不約而同加快AI真實場景落地的開發。百度新設立了基礎模型研發部、應用模型研發部。公司創始人李彥宏稱,未來AI領域只會剩下少數幾個基礎模型,但在應用層,將出現許多在不同方向上都取得成功的參與者,那裡才是機會最多的地方。中國信通院的報告顯示,基礎模型數量正持續收斂,在真實場景中的應用效果成為關注重點。以大模型“六小虎”為例,百川智能已深耕醫療,零一萬物則轉向為企業部署定製解決方案。這些揭示一個趨勢:曾經硝煙瀰漫的“百模大戰”落下帷幕,等待參與者的是一場圍繞真實場景滲透、產業生態建構與應用價值深挖的耐力賽。自1956年達特茅斯會議以來,人工智慧已走過70年曆程。如今,“技術進化”和“場景落地”的雙重變革,推動人工智慧向更廣闊疆域拓展。張亞勤認為,人工智慧正向智能體AI加速演進。智能體AI能夠像人一樣設定任務、規劃實現路徑、試錯反饋,具有自主性、能舉一反三和長期記憶三個特徵。如果說聊天機器人是“會說話的字典”,智能體AI就是“能自主幹活的管家”。中國科學院軟體研究所研究員黃進表示,未來AI不僅能聽懂指令,還能“看”懂畫面、“聽”懂語氣,成為具備綜合認知能力的“全能感知者”。“智能體是在大模型基礎上的工程化增強,極大拓展AI能力邊界。”中國信通院人工智慧研究所所長魏凱表示,不過智能體在可靠性、上下文記憶和長程任務等方面還需要提升,距離大規模應用仍有距離。張亞勤等人還認為,AI的創新前沿將突破數字世界的邊界,未來的AI將是資訊智能、物理智能和生物智能的融合。AI發展下一站是進入物理世界。1月,中國一款具身智能模型在全球統一標準下獲得第一。業界有評價認為,這意味著中國團隊訓練出的機器人“大腦”,具備了在物理世界理解和執行任務的能力。中外專家認為,AI正在與真實世界互動中建構理解和模擬物理規律的“世界模型”。物理智能將賦予AI在真實世界中感知和行動的能力,如機器人能自主完成複雜任務,智能駕駛從容應對複雜路況。AI不僅是數字世界的“思考者”,也將逐漸成為物理世界的“行動者”,更遠的未來則會成為生命世界的“探索者”。算力建設:系統升級加速協同2025年,一家初創公司發佈大模型新產品,市場反響超預期,導致預留伺服器幾分鐘內被擠爆,系統幾近癱瘓。危急關頭,一家基礎設施服務商無問芯穹公司利用平台技術服務,讓各地算力資源像“空中加油”一樣,為這家公司續上計算能力,確保了產品發佈的關鍵窗口。“我們希望未來算力就像自來水,打開能用、關上會停,不用關心它從那裡來。”公司聯合創始人夏立雪描述這樣的願景。無問芯穹公司位於上海,公司成員平均年齡32歲。他們把不同廠商、不同架構的AI晶片高效融通起來,就像搭建“立交橋”,充分利用分散的算力資源。算力,計算裝置或系統處理資料、執行運算任務的速度與規模能力,通常分為基礎算力、智能算力、超算算力。AI依靠的是智算,它不只是晶片的堆砌,而是一個由硬體、軟體、能源與網路精密協作的系統。AI算力就像一支超級工程兵團:GPU等計算晶片是執行硬核任務的“重武器”,高速網路是讓各兵種高效協同的“資訊高速公路”,儲存系統是隨時呼叫的“戰略物資庫”,軟體框架與演算法則是統籌全域的“調度指揮中心”。而一切運轉都離不開基礎保障:電站確保電力“彈藥”持續供應,供給液冷系統是戰士的“降溫服”。AI時代,算力就是新石油,AI算力中心是提煉和輸送石油的超級工廠。中國工信部資料顯示,中國已建成萬卡智算叢集42個,智能算力規模超過1590 EFLOPS,位居全球前列。業界認為,中國算力發展將繼續呈現“政府頂層設計+市場創新活力”雙輪驅動特徵。產業架構將從分散走向全國一體化,是未來算力發展的明顯特徵。東數西算工程已形成覆蓋東中西部的8大樞紐節點、10個資料中心叢集,其中8大樞紐節點已建成智算規模超過全國智算總量的80%。“十五五”規劃建議提出推進“全國一體化算力網”,中國國務院《關於深入實施“人工智慧+”行動的意見》強調“強化智能算力統籌”,指明未來算力發展將加強高效協同。中國工信部賽迪院電子所副所長馬曉凱認為,算力網建設呈現集約化、一體化、協同化、價值化等特徵,算力資源正在向樞紐節點集聚,跨地域調度平台逐步完善,政府引導、市場運作的協同機制正在建立,算力與電力加快協同。隨著需求激增,智算中心正經歷變革。中國信通院雲端運算與巨量資料研究所副所長李潔認為其將向算力高密化、叢集規模化、綠色低碳化方向演進,算力中心單機架功率與算力密度將逐漸提升,算力中心間協同聯動能力強化,規模化算力叢集將加快建構。在業界,更大規模的萬卡乃至百萬卡級叢集將成為支撐兆參數模型訓練的基礎。比如,從2011年啟動研發崑崙芯的百度集團,去年11月發佈新一代崑崙芯M系列及天池超節點,計畫將單一智算叢集規模從3萬卡推向百萬卡等級。硬體層面,不僅是晶片研發,還有通過專用積體電路、存算一體等新架構實現技術突破,建構軟硬體協同生態。頭部科技公司正打造能相容多種中國國產晶片的異構計算平台。應用層面,算力加速從科技企業走向千行百業。今年,上海、珠海等地已宣佈發放算力券,降低中小企業使用智能算力的門檻,引導算力資源流向工業製造等實體經濟領域。電力,被業界稱為“算力的盡頭”。中國信通院報告顯示,2024年中國資料中心用電量佔社會用電量比例1.68%,並提出未來高中低三種差異化發展場景,按照中速增長,預計到2030年底這一比例將達3%左右,全國資料中心用電量將突破4000億千瓦時;而按照高速增長趨勢,或將突破7000億千瓦時。“算電協同”從趨勢上升為戰略必然。國家引導算力向西部可再生能源富集區佈局,打造綠色算力基地。企業也積極探索綠電直供、分佈式新能源等模式,騰訊的資料中心去年綠電佔比已達80%。一些企業傾向將即時結算、即時推理等對時延要求高的算力就近部署,對時延要求不高的冷資料儲存等業務部署在西部。東西部之間的網路傳輸成本,以及因時延帶來的業務損耗,可能會抵消一部分電價優勢。專家表示,通過網路技術最佳化、業務智能調度,以及電力系統的靈活性互動,實現整體社會成本最優,將是算力基礎設施核心競爭力所在。展望算力前景,李潔認為“我們不僅追求硬體性能的突破,也關注從硬體到軟體、從基礎設施到綠色能源的系統性創新”。這場系統性升級,將決定中國如何把“新石油”轉化為驅動智能時代的澎湃動力。資料探勘:從規模導向轉為質量與專業化導向在保定,工程師們標註自動駕駛車輛在雨雪中的互動軌跡,建構研究華北地區城郊複雜路況的互動資料集;在成都,醫學專業學生標記CT影像以建構肝癌療效預測資料庫;在海口,資訊技術專業學生分析記錄水果生長的無人機影像,用於智能澆灌和採摘系統……最近,在某招聘平台,註明“重點大學本碩博優先”的AI資料標註員崗位,月薪最高接近2萬元。因AI應運而生的資料標註行業,正從以往勞動密集轉向知識密集。10年前,資料標註公司常落戶於中西部地區,受教育不多的人們,會用滑鼠就能完成“看圖貼標籤”。隨著生成式AI的突破和落地千行百業,越來越需要挖掘沉澱於行業企業的資料和專業人士的經驗,並將經驗轉化為AI可理解的“資料燃料”。資料對AI有多重要?在AI三要素中,演算法像設計圖,定義AI學習的方法和邏輯;算力是引擎,提供計算的能力;資料則像人類學習所需要的書本和經驗。當演算法因規模擴張而邊際效益遞減、算力因技術開源而日益普及時,AI技術的競爭焦點正轉向更基礎也更難複製的要素——高品質資料。魏凱說,訓練行業模型解決垂直行業裡的深度問題,需要高品質的行業資料集。“比如,放射科醫生看片子裡有沒有結節,靠的是數十年的醫學經驗,AI看片子也需要醫生教它。現在的資料標註要往縱深發展,把行業的深度知識、專家經驗轉化為能夠被機器學習的樣本,需要標註加工。”高品質資料從那來?簡而言之,資料標註通過提取特徵、分類、註釋和標籤化等操作,將人類的知識與思維邏輯轉化為機器可識別的形式,這是建構高品質人工智慧資料集的關鍵環節。經標註形成的高品質資料能提升垂類大模型在專業領域的性能。中國資料生產總量佔全球四分之一多。中國擁有全球最大的網際網路使用者群體,擁有全門類的工業體系,從原材料開採、中間品加工到終端產品製造的全要素、全過程、全環節資料成為寶貴資源。但另一面,很多人有這樣的經歷:在A醫院做的檢查,其結果並不被B醫院接受,原因在於醫療資料標準不統一,且涉及極高的隱私風險,導致資料無法跨院流動。中國工信部賽迪院信軟所所長韓健認為,資料價值密度不均、資料標準參差不齊、資料流通壁壘重重,導致大量資料“存而不用”,不同部門、不同企業的資料像一個個“孤島”,“不敢傳”(怕洩密)、“不願傳”(怕喪失競爭優勢)、“不會傳”(缺乏技術標準)。難題正在破解。隨著資料被明確為關鍵生產要素,國家資料局掛牌,《“資料要素×”三年行動計畫(2024—2026年)》等相繼出台,旨在培育資料產業,打造高品質資料集。國家資料局指導成都、合肥、瀋陽等7城市建設資料標註基地,先行先試。截至2025年第三季度,形成醫療、工業、教育等行業的高品質資料集超過500個,帶動資料標註相關產值163億元。資料集建設已從通用基礎資料集轉向行業高品質資料集。中國信通院對資料標註企業的調研結果顯示,78%的企業以行業資料集供給為主,重點是交通運輸、醫療健康、教育教學、工業製造等領域。業內人士認為,圍繞資料的進化今年將進入更深層次。從AI技術發展看,隨著模型訓練進入深水區,資料需求持續攀升,但單純堆量的方式已難以為繼,資料訓練密度和利用效率成為新焦點;資料集建設重點從追求規模轉向質量躍升,智能生成、專業細分、合規治理推動破解資料瓶頸。從AI落地應用看,高品質、專業化的行業資料集將成為高價值資源,尤其是在工業、金融、醫療等領域。同時,合成資料技術將越來越普及——當現實資料難以獲取或涉及隱私時,需要借助AI技術生成符合物理規律和業務邏輯的訓練資料,從而突破資料瓶頸。多位專家認為,AI應用到千行百業後,資料有望成為新的中國優勢,因為中國工業門類齊全、數字經濟發達,建成全球規模最大的5G網路,新能源汽車等行業處於世界前列。魏凱表示,未來的關鍵是充分挖掘利用中國在製造業和網際網路等優勢領域中積累的“資料金礦”,形成“業務產生資料、資料訓練AI、AI反哺業務”的良性循環。中國人工智慧學會會士、香港科技大學(廣州)協理副校長熊輝說,資料驅動AI最佳化,進而提升產業,產生更多資料,形成閉環。中國全門類的工業體系提供極其豐富的應用場景,這是形成資料飛輪的巨大優勢。產業賦能:驅動中國製造加快轉型升級一家有70多年歷史的電池廠應用AI,會發生什麼?研發環節採用AI配方大模型,高效開發多特性電池;生產通過AI即時聯動裝置與工藝,實現預警,提升穩定性;檢測引入AI雲系統,以演算法替代人工,保障大批次生產下的質量一致性。這家工廠的變化折射一個趨勢:AI並非高科技產業的專屬,它正成為傳統產業轉型升級的重要驅動力。“美國聚焦閉源,而中國主導開源市場,這一格局直接推動中國企業快速切入AI+產業。”熊輝說。國家資料局的資料顯示,2024年初中國日均Token消耗量1000億,而截至2025年6月底,中國日均Token消耗量突破30兆。一年半時間增長300多倍,反映出AI應用落地的快速增長。Token,中文叫“詞元”,是大語言模型處理資訊的基本單位。模型輸出每一個答案都消耗Token。來自頭部大模型企業的資料也印證這一趨勢。2025年12月,豆包大模型日均Token呼叫量突破50兆,同比增長超10倍,累計使用量超兆Token的企業客戶突破100家。業界人士預測,未來的Token消耗將呈現“二八格局”——約80%來自企業,20%來自個人使用者。“大模型會率先在數位化基礎較好、數位化人才相對聚集的行業落地,比如網際網路服務、金融、政務等資訊化技術好的領域;在物理資產較多、數位化相對滯後的傳統產業則會落地較緩。”魏凱分析說。中國信通院的報告顯示,AI在不同工業領域呈現差異化滲透特徵,其中電子資訊、消費品、以汽車為代表的裝備製造等行業在應用中佔重要份額,鋼鐵、石化、能源電力等行業形成較好應用態勢。中國工信部賽迪院產業所所長王昊認為,AI將以小步快跑態勢在製造業落地,從完成簡單任務到實現高級功能。2026年AI大規模落地製造業方面,較看好汽車、機器人等先進製造企業,AI也將賦能提升裝備與消費產品的智能化水平。聚焦製造業,會發現AI應用在三個維度展開:研發設計、生產製造、營運管理。“目前,大模型應用超過40%聚集在客服等營運管理環節,30%至40%應用於研發環節,原本處於‘中間緩’的生產製造環節AI應用比例從2024年的19.9%提升到2025年的25.9%,未來還將提升。”魏凱說。這種分佈反映AI在製造業滲透的漸進性特徵——從相對標準化的管理環節向核心的生產製造環節延伸。張亞勤表示,相比第一、二次工業革命中國“零參與”、第三次以資訊時代為標誌的工業革命是“跟隨者”,在AI作為技術底層的第四次工業革命中,“中國完全有可能走在前列”。這一判斷是業內共識。其背後,是基於中國的獨有優勢:全球最完整的工業體系、海量應用場景資料、強大的工程化能力和龐大的市場需求。這些要素共同構成中國製造業在AI時代實現跨越式發展的基礎。國家部署為企業助力。去年,《關於深入實施“人工智慧+”行動的意見》提出加快人工智慧在設計、中試、生產、服務、營運全環節落地應用;今年1月,工業和資訊化部等八部門印發《“人工智慧+製造”專項行動實施意見》,提出到2027年推動形成特色化、全覆蓋的行業大模型,推廣500個典型應用場景。中國工信部部長李樂成表示,將深入實施“人工智慧+製造”專項行動,統籌佈局通用大模型和行業大模型,培育一批重點行業智能體、智能原生企業;加快製造業智能化升級,挖掘人工智慧應用場景,以萬千“小場景”匯聚形成融合“大場面”。熊輝表示,傳統產業進行AI改造的核心是將產業問題抽象為AI問題,並實現低成本部署。以廣州的小家電產業叢集為例,可利用產業優勢,快速形成資料化、智能化閉環,大小模型配合,提升終端智能化水平。超600萬家中國製造業工廠,將在紛繁多樣的場景擁抱AI。這不僅是一場技術革命,更是一場深刻的生產方式變革。社會價值:深刻改變治理方式和運行規則重慶市潼南區桂林街道梨樹村,智能監測系統靜靜守護著85歲的獨居老人。當系統發現異常,從預警到網格員上門僅需15分鐘。這是AI融入政府公共服務的一個普通場景。從事後處置轉向事前預警,從“人海戰術”轉向智能調度,人工智慧的觸角以前所未有的廣度和深度,嵌入社會運行的一道道肌理。AI帶來的轉變推動城市治理更智能、更精準。在四川德陽,“城市大腦”的演算法以分鐘級發現路面問題;在甘肅臨洮,大橋上的AI可識別行人翻越欄杆、靠近水流等行為,與警務等部門聯動,挽救了20多條生命。重塑治理理念,人機協同的治理新模式應運而生。中國信通院政策與經濟研究所副所長李強治認為,中國正推動AI治理“下沉場景賦能”,將AI技術與政務、公共安全等領域深度融合。這股力量也滲透進日常生活的毛細血管——消費。AI萬能搜、AI幫我挑、AI試衣、AI清單……去年的“雙十一”購物節,淘寶天貓一口氣推出6款AI導購應用。“平台和產品變得更懂消費者。這不再是簡單的‘猜你喜歡’,而是‘懂你需要’,消費起點從使用者的需求清單逐漸變為AI的演算法推薦。”淘天集團研究中心主任徐飛說。AI正錨定“需求”著力滲透,實現從“技術可行”到“社會需要”。一位蔚來車主在車裡說句“想吃麥當勞”,車載系統就能自動定位到最近門店,並根據駕駛路線與會員身份推薦套餐。這是麥當勞中國與蔚來汽車聯合推出的中國首個車載AI語音點餐系統。麥當勞中國首席資訊技術與體驗官陳世宏表示,AI技術不斷滲透到消費場景,拓展消費邊界。《關於深入實施“人工智慧+”行動的意見》提出,推動智能終端“萬物智聯”,培育智能產品生態,大力發展智能網聯汽車、人工智慧手機和電腦、智慧型手機器人、智能家居、智能穿戴等新一代智能終端,打造一體化全場景覆蓋的智能互動環境。中金公司2026年展望報告顯示,消費電子的“端側AI時代”已經來臨,今年有望成為AI消費終端大規模普及的關鍵年份。新一輪消費電子更新換代潮或將到來。愛奇藝AIGC科技創意指導王慶豐表示,AI正推動消費從“需求牽引供給”逐步到“供給定義需求”,這背後是AI從表層效率最佳化切入,逐步滲透到體驗重構,甚至重塑著深層價值體系。AI重新定義價值,最深遠的是挖掘人的價值。學日語出身的劉典,在AI爆火的這兩年決定辭職攻讀計算語言學。“AI降低了跨界難度,很多知識門檻並沒有想像中高。”他說。AI向各行各業滲透,先行者靠它撬動更大價值。上海漕河涇開發區AI校友中心有超60家AI初創企業,創業者平均28歲。數宗科技主攻“多模態知識圖譜”,其創始人丁天是一位愛寫詩的文科生,他認為,AI時代,技術正從難以踰越的壁壘變為人人可呼叫的資源。“氛圍程式設計”入選《柯林斯詞典》2025年度詞彙,從“敲程式碼”到“聊程式碼”,AI逐漸滲透工作流程。騰訊相關負責人表示,騰訊有超90%工程師正在借助AI編碼,並基於自身實踐推出支援多種形態的專業工具CodeBuddy(雲程式碼助手),面向企業及程式設計師提供服務。AI輔助讓工程師專注於創新,成為能力的放大器。隨著AI重新定義工作和技能,傳統教育勢必轉型。在深圳職業技術大學的課堂上,AI正在手把手地教學生程式設計。校長許建領說,成功的“AI+教育”不是讓學生依賴AI獲取答案,而是培養他們使用AI創新。學生核心競爭力不再是單一的操作技能,而是複雜問題解決能力、“AI+技能”復合素養和可持續學習的自驅力。AI時代,每個人都可以挖掘自己的潛力,專注於唯有人類才能駕馭的洞察與創造。安全防範:護欄建設將趨嚴趨實最近,美國《韋氏詞典》評選出2025年度詞彙:“slop”(AI垃圾內容)。不約而同,英國《經濟學人》雜誌、澳大利亞《麥考瑞詞典》評選的年度詞彙也是它。這詞被一些網友翻譯為“AI泔水”,指質量低下、無意義或粗製濫造的AI圖像和文字等內容。詞語背後是席捲全球的現象:AI生成的荒誕而無意義的視訊、圖像和文字充斥網際網路。這警示人們,AI技術突飛猛進的同時,其日益增多的安全隱患與倫理挑戰不容忽視。“一家公司與某三甲醫院合作開發AI健康助手,最初設計採用一名真實醫生的形象與聲音。我向這家公司提出可能誤導患者,透支患者對醫生的信任。”中國科學院自動化研究所研究員、聯合國人工智慧高層顧問機構專家曾毅談到這樣一個案例。在曾毅等人建議下,這家公司推出的應用以卡通人物為形象,強化了其助手定位。曾毅說,越來越多AI企業開始思考以人文溫度校準技術。AI有那些風險?業內專家普遍將其總結為資料隱私與安全邊界模糊、技術濫用與虛假資訊產生、演算法偏見與決策“黑箱”等方面。張亞勤認為,突出的是資訊智能領域的風險,AI可以被利用生成虛假資訊、深度偽造並進行欺詐,還有生成式人工智慧的智慧財產權問題。當未來大模型、智能體與無人車、機器人等連接起來,智能體之間的協作和博弈如果出現失控或被惡意濫用,造成的風險更大。曾毅舉例,“越獄攻擊”,即通過精心設計提示詞繞過安全約束,並引發有害、偏見或不道德輸出的對抗性攻擊,是當前大語言模型安全領域的嚴峻挑戰。在AI技術狂飆突進時,如何為它裝好“方向盤”和“剎車片”?中國不斷加固安全護欄,走出一條從柔性指導到不斷加強法治保障的特色治理之路——《關於深入實施“人工智慧+”行動的意見》提出“形成動態敏捷、多元協同的人工智慧治理格局”;中央網信辦、國家發展改革委、科技部等多部門協同發力,推動人工智慧治理從理念走向落地。“十五五”規劃建議提出,加強人工智慧治理,完善相關法律法規、政策制度、應用規範、倫理準則。業界認為,這為中國未來五年人工智慧健康發展明確方向、留足空間、築牢基礎。去年底公佈的《人工智慧擬人化互動服務管理暫行辦法(徵求意見稿)》提出,擬人化互動服務提供者應當建立應急響應機制,發現使用者明確提出實施自殺、自殘等極端情境時,由人工接管對話。“這一暫行辦法公佈並向社會徵求意見,體現中國人工智慧政策‘自適應性’與監管框架的與時俱進。”曾毅說。既有“軟性”政策指導,也有“硬性”法律保障。新修改的網路安全法於今年施行,其中規定,完善人工智慧倫理規範,加強風險監測評估和安全監管。“規範發展”已成為AI業界共識,從研究機構到企業平台均在探索建立健全AI安全倫理體系,明確資料使用、責任界定等關鍵規則。2024年,中國信通院啟動“大規模預訓練模型(文字生成功能)安全認證”,標誌著中國開始對大模型內容安全進行系統化、標準化認證。一些機構和企業也在牽頭制定行業標準,如騰訊和中國信通院聯合發佈中國首個金融行業大模型標準等。AI發展需要各國共同推進、協同治理。參與起草《人工智慧全球治理行動計畫》的清華大學人工智慧國際治理研究院院長薛瀾表示,建構一個公平、公正、綜合、平衡的人工智慧全球治理體系,關乎全人類的共同發展。AI是驅動發展的新質生產力,也是影響人類未來命運的新生力量。如何加速技術應用以增加社會福祉,同時加強人文關懷化解潛在風險,這既關乎發展,也關乎未來。中國AI技術的發展與應用令人期待,需要全社會的深度參與。 (新華社)
對話Surge AI創始人Edwin Chen:不融資、不炒作,百人團隊如何4年做到10億美金?
Surge AI 更像研究實驗室,注重好奇心、長期激勵與學術嚴謹性。簡介Edwin Chen是深耕AI資料領域的顛覆式創業者,以Surge AI創始人兼CEO的身份,走出了一條逆勢生長的商業路徑。他帶領不足100人的團隊,4年實現營收破10億美元,全程未接受外部VC投資、自籌資金且盈利至今,成為全球成長最快的AI資料公司。在本期Lenny播客對話中,他毫無保留地拆解核心邏輯:高品質資料的定義絕非“堆人力”,而是像“養育孩子”般注入價值觀與創造力;直言行業對基準測試的盲目追捧正在帶偏AGI方向,揭秘強化學習環境如何成為AI訓練的下一代核心;更痛批矽谷融資炒作套路,給出“專注產品、拒絕跟風”的創業箴言。此外對話中更直擊行業深層痛點:模型差異化的未來趨勢、對於AI目標函數的思辨,以及資料公司如何影響全球AI發展方向。這場對談既有硬核的技術邏輯拆解,也有顛覆傳統的商業認知,想要讀懂AI資料領域的底層邏輯與創業本質,這些乾貨滿滿的細節裡藏著關鍵答案。本期目錄4年營收10億美元神話創業叛逆:拒絕矽谷套路的增長邏輯高品質資料與模型領先的密碼技術爭議:基準測試的陷阱與AGI航向風投之外的創業正道強化學習重塑AI訓練未來模型差異化與AI趨勢冷暖AI訓練的使命與創業初心4年營收10億美元神話主持人Lenny:我們先從你取得的驚人成就說起吧。不到四年營收破10億美元,團隊僅60-70人,且完全自籌資金、未接受任何風投,真正實現了AI賦能小團隊的願景。未來會有更多公司做到這一點嗎?AI在那方面最能幫你們發揮槓桿作用?Edwin Chen:是的,我們去年營收超過10億美元,而員工還不到100人。我認為未來幾年,我們會看到比例更驚人的公司出現——比如人均營收1億美元。AI持續升級會讓這一比例成為必然。Surge AI創始人Edwin Chen(圖片來源:YouTube@Lenny's Podcast)我以前在多家大型科技公司工作過,總覺得其實裁掉90%的人,公司運轉反而會更快,因為最優秀的人才不會被各種瑣事幹擾。所以當我們創辦Surge時,就想以完全不同的方式打造它:組建一支超精簡、超精英的團隊。而且不可思議的是,我們真的做到了。我覺得有兩個關鍵因素在共同作用:一是人們逐漸意識到,不一定非要打造龐大的組織才能成功。二是AI帶來的這些效率提升,會讓創業迎來一個黃金時代。我最期待的是,未來的公司不僅規模會變小,形態也會發生根本性改變。員工少意味著所需資金少,資金少就不需要融資。所以,未來的創業者不再是那些擅長遊說、炒作的人,而是真正精通技術或產品的人。產品也不再是為了迎合營收目標和風投喜好而最佳化,而是由這些小型專注團隊打造的、更具深度和創意的作品——他們是在打造自己真正在乎的東西,是真正的技術創新。創業叛逆:拒絕矽谷套路的增長邏輯主持人Lenny:你們做了很多逆勢而為的事,比如不在領英發爆款帖子,不在推特上持續宣傳Surge。我想大多數人直到最近才聽說過你們,然後你們突然就以“增長最快的十億美元營收公司”的身份亮相了。你們為什麼要這麼做?Edwin Chen:我們從一開始就不想參與矽谷的那套玩法,我一直覺得那很荒謬。想想看,你小時候的夢想是自己從零打造一家公司,每天沉浸在程式碼和產品中?還是向風投解釋自己的每一個決策,陷入公關和融資的無盡循環?不參與這些玩法確實讓我們的路更難走,因為如果選擇融資,你自然會融入矽谷的“產業生態”——風投會在推特上宣傳你,你會登上TechCrunch的頭條,因為高估值融資而被各大媒體報導。而我們只能靠打造出10倍優秀的產品,通過研究人員的口碑傳播獲得成功。但這也讓我們的客戶群體變得非常精準:他們真正理解資料的價值,也真正在乎資料質量,並且清楚優質資料能讓他們的AI模型變得更強大。因為這些早期客戶一直在幫助我們,給我們的產品反饋,所以與他們在使命上的高度契合,對我們早期的發展至關重要。他們購買我們的產品,是因為認可產品的獨特價值,是因為產品能真正幫到他們,而不是因為在社交媒體上看到了宣傳。所以這條路雖然更難,但對我們來說是正確的選擇。高品質資料與模型領先的密碼主持人Lenny:這對創業者來說是個很有啟發的故事——不用整天在推特上宣傳,不用融資,只要埋頭打造產品就行。我非常喜歡Surge的創業故事。能不能簡單介紹一下你們是做什麼的?Edwin Chen:我們本質上是教AI模型分辨好壞。我們利用人類資料對模型進行訓練,推出了很多相關產品。比如SAT、RHF、評估標準、驗證器、強化學習環境等等,同時我們也會衡量模型的進步程度。所以說到底,我們是一家資料公司。主持人Lenny:你一直強調,資料質量是你們成功的關鍵。那麼要打造高品質資料,需要具備那些條件?你們做了那些與眾不同的事?而其他人又忽略了什麼?Edwin Chen:我覺得大多數人根本不理解這個領域中“質量”的真正含義,他們以為只要投入大量人力就能獲得優質資料,但這完全是錯誤的。我舉個例子吧:假設你想訓練一個模型寫一首關於月亮的優秀詩歌,什麼才是“高品質”的詩歌?如果對質量沒有深入思考,你可能會設定這樣的標準:“這是一首詩嗎?有沒有8行?有沒有出現‘月亮’這個詞?”只要滿足這些條件,你就覺得這是一首好詩。但這和我們追求的質量相去甚遠。我們想要的是能拿諾貝爾獎等級的詩歌——它是否獨特?是否充滿精妙的意象?是否能打動你、觸動你的心靈?這才是我們定義的高品質詩歌。這種對質量的深度追求其實非常困難,因為它難以衡量,主觀、複雜且豐富,同時也設定了極高的標準。所以我們必須打造全套技術來衡量這種質量——比如收集關於工作人員的數千個訊號,以及每個項目、每項任務的數千個訊號。到最後,我們能精準判斷出某個人擅長寫詩、寫散文還是寫技術文件。我們會收集關於工作人員背景、專業技能的所有訊號。不僅如此,還會關注他們完成任務時的實際表現,然後利用這些訊號來判斷他們是否適合某個項目,以及他們是否在推動模型進步。打造這些衡量技術確實很難,但這正是我們希望AI能做到的——所以我們對質量有著極致且深刻的追求。主持人Lenny:所以你的意思是,你們會深入理解每個垂直領域中“質量”的定義,對嗎?比如你們會僱傭極具詩歌天賦的人,再結合評估標準,來判斷作品是否優秀?這背後的運作機制是怎樣的?Edwin Chen:具體來說,我們會收集工作人員在平台上操作時的數千個訊號——比如鍵盤敲擊頻率、回答速度、同行評審結果、程式碼標準,同時我們也會用他們的輸出結果來訓練我們自己的模型,觀察這些輸出是否能提升模型性能。這有點像Google搜尋判斷網頁質量的邏輯,主要分為兩部分:一是剔除最差的內容,比如垃圾資訊、低品質內容、無法載入的頁面,這有點像內容稽核。二是發掘最優質的內容,比如找出最優質的網頁,或者最適合某個任務的人。這些人不只是寫得出高中水平的詩歌——他們不會機械地按照指令堆砌詩句,而是能寫出真正觸動人心的作品。主持人Lenny:Claude在程式碼編寫和文字創作方面,長期以來都比其他模型優秀得多。事實上,所有AI程式設計產品都曾基於Claude。是什麼讓Claude能保持這麼久的領先?僅僅是訓練資料的質量,還是有其他原因?Edwin Chen:我覺得有多個因素。首先,資料確實是關鍵——很多人沒有意識到,所有前沿實驗室在選擇模型訓練資料時,都面臨著無數選擇。模型訓練要明確一系列問題:是否用人類資料、如何收集、對內容的具體要求(比如程式設計領域側重前端還是後端,前端更看重視覺、效率還是正確性),以及合成資料的佔比、對基準測試的重視程度。不同公司對此的權衡不同:有的為公關最佳化基準指標,有的更看重實際任務效果。模型後期訓練更像藝術而非科學,開發者的審美和洞察力會影響訓練資料組合。因此,資料很重要,模型的最佳化目標函數同樣關鍵。主持人Lenny:這太有意思了。也就是說,主導這項工作的人的審美,會影響他們對資料的選擇和投喂。這再次凸顯了優質資料的價值——Anthropic正是憑藉更好的資料獲得了巨大的增長和成功。Edwin Chen:沒錯。而且這還只是程式設計一個垂直領域,文字創作領域也是類似的情況。AI看似是冰冷的二進制程式碼,但人類的判斷和審美,依然是這些產品成功的關鍵因素。主持人Lenny:完全同意。真正有審美和洞察力的前沿實驗室會意識到,好詩不能簡化為一系列固定的標準,他們會考慮那些隱含的、微妙的特質。我想這正是他們能脫穎而出的原因。技術爭議:基準測試的陷阱與AGI航向主持人Lenny:你提到了基準測試。很多人都有這樣的困惑:現在很多模型在幾乎所有STEM領域都表現得比人類還好,但對普通人來說,這些模型似乎並沒有在持續變得更智能。你對基準測試的信任度有多高?它們與AI的實際進步相關性強嗎?Edwin Chen:我完全不信任基準測試,主要有兩個原因。第一,很多人——包括行業內的研究人員——都沒有意識到,這些基準測試本身往往是有問題的,比如答案錯誤、存在諸多漏洞,但大多數人並沒有發現這些問題。第二,這些基準測試通常都有明確的客觀答案,這使得模型很容易“鑽空子”最佳化,而這與現實世界的混亂和模糊性完全不同。我常說一個很有意思的現象:這些模型能贏得國際數學奧林匹克競賽金牌,卻連解析PDF都困難重重。這是因為雖然國際數學奧林匹克競賽對普通人來說很難,但它具有客觀性,而解析PDF往往沒有這種客觀性。所以前沿實驗室更容易讓模型在這些基準測試中“鑽空子”最佳化,而非解決現實世界中那些混亂、模糊的問題。因此,基準測試與AI的實際進步之間缺乏直接相關性。主持人Lenny:你這麼一說,我就明白了——衝擊這些基準測試有點像行銷手段。比如Gemini 3剛發佈時,宣稱在所有基準測試中排名第一,是不是就是這樣?他們只是訓練模型在這些特定任務上表現出色?Edwin Chen:是的,這主要有兩方面原因。一方面,這些基準測試有時會以某種方式“洩露資訊”,或者前沿實驗室會調整模型在基準測試中的評估方式——比如調整系統提示詞、調整模型運行次數等,從而“操縱”測試結果。另一方面,如果你優先最佳化基準測試而非現實世界的任務,模型自然會在基準測試中表現越來越好,這本質上也是一種操縱。主持人Lenny:既然如此,你如何判斷我們是否在向AGI邁進?如何衡量這種進步?Edwin Chen:我們真正重視的衡量方式是人類評估。比如,我們會讓人類標註員與模型進行跨領域的對話——讓諾貝爾獎得主等級的物理學家與模型討論前沿研究,讓教師與模型探討課程設計,讓大型科技公司的程式設計師與模型解決日常工作中的問題。我們的標註員都是各自領域的頂尖專家,他們不會淺嘗輒止地瀏覽模型的回答,而是會深入研究。他們會驗證程式碼的正確性,核對物理方程的精準性,從精準性、指令遵循度等多個維度對模型進行深度評估——這些都是普通使用者不會做的。當你在ChatGPT中收到“比較兩個回答”的彈窗時,大多數人只是憑感覺選擇看起來更順眼的回答,而我們的標註員會仔細分析每個回答的各個維度。所以我認為,這種人類評估比基準測試或隨機的線上A/B測試更可靠。主持人Lenny:我很高興看到人類在其中依然扮演著核心角色。未來會不會有一天,我們不再需要這些人類標註員了?比如AI已經足夠智能,我們已經從人類身上學到了所有能學的東西。Edwin Chen:我認為除非我們實現了AGI,否則這種情況不會發生。從定義上來說,在實現AGI之前,模型還有很多需要從人類身上學習的東西。所以我覺得這一天不會很快到來。主持人Lenny:既然說到了AGI,你認為我們距離AGI還有多久?是幾年還是幾十年?Edwin Chen:我更傾向於較長的時間線。我認為人們沒有意識到,從80%的性能提升到90%、99%、99.9%,每一步都越來越難。在我看來,未來一兩年內,模型可能會自動化完成普通L6級軟體工程師80%的工作,但要提升到90%可能還需要幾年時間,再提升到99%又需要更長時間,以此類推。所以我認為,我們距離AGI還有十年甚至幾十年的時間。主持人Lenny:你有個很尖銳的觀點:很多實驗室在推進AGI的方向上是錯誤的。基於你在推特、Google和臉書的工作經歷,你能具體說說嗎?Edwin Chen:我擔心我們沒有打造出能推動人類進步的AI——比如治癒癌症、消除貧困、探索宇宙這些宏大目標——反而在最佳化“劣質AI”。說白了,就是讓模型迎合那些在雜貨店買八卦小報的人的喜好,教模型追逐多巴胺而非真相。這和我們之前聊的基準測試有關。我舉幾個例子:比如行業排行榜LM Arena,普通人僅花兩秒瀏覽選花哨回答,模型靠誇張表達、多表情符號、長篇幅就能上榜,那怕內容胡編亂造。前沿實驗室為公關、企業客戶認可,研究人員為升職,不得不迎合這類排行榜,而去犧牲模型精準性。我認為這些負面激勵正在把AI推向錯誤的方向。我還擔心AI最佳化“參與度”的趨勢。我以前在社交媒體行業工作過,每次我們最佳化參與度,都會出現糟糕的結果——點選誘餌、比基尼照片、大腳怪傳說、恐怖的皮膚病圖片充斥著使用者的資訊流。更令人擔憂的是 AI 最佳化 “參與度” 的趨勢。就像社交媒體曾出現的問題,模型靠吹捧使用者、迎合妄想打造資訊繭房,而矽谷痴迷於使用者時長,讓這些有根本缺陷的模型反而得分更高,負面激勵正把 AGI 推向錯誤方向主持人Lenny:所以你的意思是,AGI的發展之所以放緩,是因為這些實驗室關注了錯誤的目標函數——錯誤的基準測試和評估方式。Edwin Chen:沒錯。主持人Lenny:我知道你可能不方便偏袒任何一家實驗室,畢竟你和所有實驗室都有合作。但有沒有那家實驗室做得更好,意識到了這個錯誤方向?Edwin Chen:我一直非常欣賞Anthropic。我認為Anthropic在自己在乎什麼、不在乎什麼,以及希望模型呈現出怎樣的行為方面,有著非常堅定的原則,這讓我覺得他們的做法更具使命感。Anthropic CEO Dario Amodei(圖片來源:X@AnthropicAI)主持人Lenny:你覺得實驗室還有其他那些重大錯誤,正在阻礙AI的發展或讓AI走向錯誤的方向?除了追逐基準測試和過度關注參與度之外。Edwin Chen:我覺得問題在於他們打造的產品本身,以及這些產品對人類是有益還是有害。比如我經常會想Sora(OpenAI的文字生成視訊模型)——那些公司會打造Sora,那些不會?我自己心裡有答案,但我覺得這個問題的答案,恰恰能反映出這些公司想要打造什麼樣的AI模型,以及他們想要實現什麼樣的未來。右一為OpenAI創始人Sam Altman(圖片來源:X@sama)主持人Lenny:支援Sora的觀點是,它很有趣,人們需要它,能幫助公司創收、研發更好的模型,還能以有趣的方式生成訓練資料。Edwin Chen:核心問題是是否在乎實現目標的過程。就像不會為資助嚴肅報紙而賣八卦小報一樣,不擇手段雖可能達成目標,卻會引發負面後果,甚至偏離更重要的事,因此過程與目標同等重要。風投之外的創業正道主持人Lenny:你提到矽谷存在融資過多、回音室效應等問題,將其稱為 “矽谷機器”,還說這種模式難出有價值的公司,不走風投路線可能更成功。能否結合自身經歷,給創業者一些不同建議?畢竟他們常聽到要找知名風投、搬到矽谷的說法。Edwin Chen:我一直很反感矽谷的諸多創業信條,比如頻繁調整方向、用 “灰色手段” 追增長、快速招聘擴張等。我的建議是:不盲目調方向、不隨意擴張,不僱傭只為簡歷鍍金的人;專注打造唯有自身洞察力和專業知識才能實現的產品,堅守使命感,拒絕跟風追逐估值。創業應是為堅信的宏大理念承擔風險,即便因市場未準備好失敗,也比跟風賺快錢有意義。唯有堅守初心、拒絕誘惑、不輕易放棄,專注打造 “非你不可” 的公司,才可能打造出有價值、能改變世界的企業。如今不少人厭倦矽谷炒作,希望科技能向為有意義大目標努力的方向發展。主持人Lenny:我正在和一位我非常欣賞的風投Terrence Rohan合作一篇文章,我們採訪了五位在“世代級”公司早期就加入的人。他們的經歷和你說的完全一致:這些公司都有宏大的抱負,正如你所說,他們不會為了尋找產品市場契合度而隨意調整方向。所以你的觀點和我們的發現高度契合。Edwin Chen:沒錯。我認為你必須要有宏大的抱負,堅信自己的理念能改變世界,並且願意全力以赴去實現它。強化學習重塑AI訓練未來主持人Lenny:換個話題聊個逆勢觀點:著名 AI 研究者 Richard Sutton 在播客中提出 “痛苦的教訓”,認為 LLM 因學習方式限制是死胡同,會陷入停滯。你認為 LLM 能實現或超越 AGI 嗎?還是需要新的重大突破?Edwin Chen:我認為要實現AGI,還需要新的突破。我是這樣理解的:談到訓練,我更傾向於從“類生物”的角度思考——人類的學習方式有上百萬種,我們需要打造能模仿所有這些學習方式的模型。它們可能在側重點上有所不同,但我們需要讓模型具備人類的學習能力,確保它們有相應的演算法和資料來實現這種學習。因此,只要LLM的學習方式與人類不同,就需要新的突破。這就涉及到強化學習——這是我非常關注的領域,而且我越來越多地聽到,強化學習在模型後期訓練中變得越來越重要。主持人Lenny:你能幫大家解釋一下什麼是強化學習和強化學習環境嗎?為什麼它們在未來會變得越來越重要?Edwin Chen:強化學習本質上是訓練模型達成特定的獎勵目標。強化學習環境則是對現實世界的模擬——就像打造一個視訊遊戲,每個角色都有真實的故事,每個企業都有可呼叫的工具和資料,所有實體之間都能相互作用。比如,我們會模擬這樣的場景:一家初創公司有 Gmail 郵件、Slack 聊天記錄、程式碼庫這些東西,突然 AWS 和 Slack 都崩了,讓模型自己想辦法解決。我們會給模型佈置任務、設計難搞的場景,看它表現好壞來獎懲。強化學習環境有意思的點在於,能把模型在現實複雜任務裡的短板全暴露出來。很多模型在單獨的基準測試裡挺厲害,比如會用個工具、聽個單步指令,但一放到亂糟糟的現實裡就不行了。碰到模糊的Slack消息、沒見過的工具,還得正確操作、改資料庫,而且一步影響後面好多步,跟之前那種學術化的單步環境完全不一樣,模型常常會離譜的徹底翻車。所以我覺得,強化學習環境會變成模型重要的 “訓練場”,它模擬真實世界的情況,能幫模型在實際任務裡變厲害,而不是只在特意設計的環境裡表現好。主持人Lenny:我試著想像一下這個場景:本質上就是一個虛擬機器,裡面有瀏覽器、電子表格之類的工具,還有你們的網站。比如,給模型的任務是“確保surge.com正常運行”,然後突然網站當機了,目標函數就是找出當機原因並修復嗎?Edwin Chen:沒錯。目標函數可能是通過一系列單元測試,也可能是撰寫一份包含事件完整資訊的復盤文件——我們會設定各種不同的獎勵機制來判斷模型是否成功。所以本質上,就是給模型一個目標,讓它利用自己的所有智能去嘗試解決問題,過程中會犯錯,我們會引導它,對正確的行為給予獎勵。你說得對,這正是模型變得更智能的下一階段:強化學習環境專注於那些具有經濟價值的特定任務。Edwin Chen:強化學習環境和之前的SFT、RHF、評估標準這些學習方式不衝突,不是要替代它們,而是補充,讓模型多學一項技能。而且這時候不用專家直接和模型對話、糾錯打分了,而是讓他們設計強化學習環境。比如金融分析師會做電子表格、指定要用到的工具,再設定獎勵規則。這很像人類的學習方式:不斷嘗試,留下有用的方法,丟掉沒用的。主持人Lenny:你提到“軌跡”對強化學習非常重要——不僅僅是設定目標和看結果,還要關注過程中的每一步。你能解釋一下什麼是軌跡,以及它為什麼重要嗎?Edwin Chen:我認為很多人沒有意識到,有時候模型雖然得出了正確答案,但過程卻非常離譜。比如,它可能在中間步驟嘗試了50次都失敗了,最後只是隨機蒙對了答案;或者它的做法非常低效,甚至是通過“操縱獎勵機制”才得到正確答案。所以關注軌跡至關重要。而且有些軌跡可能非常長,如果只看最終結果,就會忽略模型在中間步驟的行為資訊。比如,有時候你希望模型通過反思自己的行為得出正確答案,有時候你希望它一步到位。如果忽略軌跡,就會錯失很多可以教給模型的重要資訊。主持人Lenny:模型進化過程中,那些後期訓練方法最能推動模型進步?評估、強化學習環境在其中扮演了什麼角色?現在我們是不是正朝著強化學習環境的方向發展?Edwin Chen:模型後期訓練最初是從SFT開始的。SFT是什麼意思呢?監督微調很像“模仿大師”——複製大師的做法。後來RHF(基於人類反饋的強化學習)成為主流,這就像“寫55篇文章,讓別人告訴你最喜歡那一篇”。過去一年左右,評估標準和驗證器變得非常重要,這就像“通過評分和詳細反饋學習自己的錯誤”——這也是評估的一種形式。評估通常包含兩個方面:一是將評估結果用於訓練(判斷模型表現是否良好,表現好就給予獎勵)。二是用評估來衡量模型的進步——比如有五個候選模型版本,通過評估選出最好的那個向公眾發佈。現在,強化學習環境成為了新的熱點,這是模型進化的下一個階段。主持人Lenny:很欣賞你們的商業路徑,從給企業提供高品質資料,到現在搭建虛擬機器和應用場景,核心就是適配實驗室的需求。Edwin Chen:沒錯。我真的認為,我們需要打造一系列產品,來反映人類上百萬種不同的學習方式。就像優秀作家不是靠死記硬背語法,而是靠閱讀、練習、反饋等多種不同方式成長一樣,AI 模型也需要上千種學習方式。畢竟神經網路和深度學習的靈感源於人類學習方式與大腦運作,要讓 AI 更智能,就得讓它越來越貼近人類的學習邏輯。主持人Lenny:Surge有一個獨特之處——你們有自己的研究團隊,這在同類公司中似乎很少見。你能談談為什麼要投入資源組建研究團隊,以及這個團隊帶來了那些成果嗎?Edwin Chen:這源於自身研究者背景,我更關注推動行業與研究社區發展,而非僅追求營收。我們公司有兩類研究者:一類是前沿部署研究者,他們與客戶深度協作,分析模型現狀、差距及改進方向,設計資料集、評估方法和訓練技術,助力客戶最佳化模型。另一類是內部研究者,他們的關注點略有不同:一是打造更合理的基準測試和排行榜,規避現有體系的誤導性;二是自研模型,探索優質資料與人才特質,研究訓練及評估技術,完善內部資料產品並明確 “高品質” 定義。主持人Lenny:這太酷了——通常都是實驗室有研究者推動AI進步,像你們這樣的公司擁有自己的研究者進行AI基礎研究,確實很罕見。Edwin Chen:沒錯。這主要是因為我從根本上就關心這些事情。我經常把我們公司看作一個研究實驗室,而不是一家初創公司——這也是我的目標。有點好笑的是,我一直說“我寧願成為陶哲軒(著名數學家),也不願成為華倫·巴菲特”。所以,創造能推動前沿發展的研究成果,而不僅僅是追求估值,一直是我的動力,而且這也確實奏效了。主持人Lenny:你提到你們在招聘研究者,有什麼想分享的嗎?你們在尋找什麼樣的人?Edwin Chen:我們尋找的是那些從根本上對資料充滿興趣的人——比如那些能花10個小時鑽研一個資料集、擺弄模型,思考“模型在這裡失敗了,它應該有什麼樣的行為”的人。我們希望他們能親身實踐,關注模型的定性方面,而不僅僅是定量指標——也就是能親手處理資料,而不只是關心抽象的演算法。模型差異化與AI趨勢冷暖主持人Lenny:我想問幾個關於AI市場的宏觀問題。未來幾年,AI領域會出現那些人們可能沒有充分考慮或預料到的趨勢?那些事情會變得重要?Edwin Chen:我認為未來幾年,模型會變得越來越差異化——這源於不同實驗室的特質、行為方式,以及他們為模型設定的目標函數。一年前我還沒有意識到這一點,當時我覺得所有AI模型最終都會變得同質化,雖然現在某個模型在某個方面可能略勝一籌,但其他模型幾個月後就會趕上。但過去一年我意識到,公司的價值觀會塑造模型的行為。我舉個例子:我讓Claude花30分鐘迭代30版起草了一封無實質影響的郵件。這引發了一個關鍵問題:你理想中的模型行為是怎樣的?是不斷提議最佳化、佔用大量時間以提升參與度,還是優先考慮效率、告知無需再改?模型的行為選擇會從根本上影響其發展,就像Google、臉書和蘋果的搜尋引擎因各自的原則、價值觀和目標而截然不同,未來的大語言模型也會呈現出顯著的行為差異。主持人Lenny:Grock已經呈現出了這種特質——它的“個性”和回答問題的方式都非常獨特。所以你認為未來會有更多這樣差異化的模型?Edwin Chen:沒錯。主持人Lenny:再問一個相關的問題:你認為AI領域中,那些趨勢被低估了,那些又被高估了?Edwin Chen:我認為被低估的趨勢之一是,所有聊天機器人都會開始內建產品功能。我一直很喜歡Claude的“工件”(artifacts)功能,它真的非常好用。前幾天,我發現Claude有個實用功能:生成郵件後會提供按鈕,點選即可將資訊轉為簡訊傳送。我不知道這是不是新功能,但這個概念非常棒。我認為 “升級工件”—— 在聊天機器人中內建微型應用、微型介面 —— 是被低估且潛力十足的趨勢。而 “氛圍程式設計” 被高估了,隨意將其生成的程式碼塞進程式碼庫,雖暫時可用,但長期會導致系統難以維護,這一問題可能在程式設計領域持續存在。主持人Lenny:你的第一個觀點太精彩了。我曾經採訪過Anthropic和OpenAI的首席產品官,問他們AI是否會直接根據使用者需求建立迭代產品?這相當於 “氛圍程式設計” 的升級版——告訴AI你想要什麼,它就直接打造產品。也契合你所說的未來方向。Edwin Chen:沒錯。我認為這是一個非常強大的理念——AI能幫助人們以更高效的方式實現自己的想法。價值思辨:AI訓練的使命與創業初心主持人Lenny:我很好奇你創辦Surge的契機。Coinbase創始人Brian Armstrong曾在演講中提到,自己經濟學、密碼學及工程師的獨特背景,讓他成為創辦Coinbase的不二人選。我覺得你的故事和他很相似,能談談你的背景,以及它如何引領你創辦Surge嗎?Edwin Chen:我自幼痴迷數學與語言,因 MIT 在數學、電腦科學領域的頂尖地位及諾姆・喬姆斯基的存在選擇就讀該校,求學時渴望找到連接這些領域的底層理論。後來在Google、臉書、推特擔任研究者期間,我反覆面臨訓練模型所需資料難獲取的問題,且始終堅信高品質資料的重要性。2020 年 GPT-3 發佈後,我意識到打造更高級功能的模型需要全新解決方案,而當時的資料公司僅專注於圖像標註等簡單任務。憑藉數學、電腦科學與語言學交叉領域的背景,我在 GPT-3 發佈一個月後創辦了Surge,使命是打造推動 AI 前沿發展所需的應用場景。主持人Lenny:你說一個月後,是指GPT-3發佈一個月後嗎?Edwin Chen:是的。主持人Lenny:哇,這真是個偉大的決定。除了已經取得的巨大成功,現在是什麼在驅動你繼續打造Surge,在這個領域深耕?Edwin Chen:我本質是一個科學家,曾想成為數學或電腦科學教授,探索宇宙、語言與溝通的本質,還懷揣和諾姆·喬姆斯基一起用數學、電腦科學及語言學知識破解外星語言的夢想。至今,我仍熱愛深度分析新發佈的AI模型,親自擺弄、運行評估、對比優劣並撰寫詳細報告,即便很多報告對外稱來自資料科學團隊,實則多由我完成。我不擅長CEO的典型工作,卻樂於寫報告、與研究團隊深夜深入探討模型,慶幸能持續參與資料和科學相關工作。驅動我的是希望Surge在AI乃至人類未來中發揮關鍵作用,我們在資料、語言、質量等領域有獨特視角。Surge更像研究實驗室,注重好奇心、長期激勵與學術嚴謹性,而非季度指標和董事會報告上好看的資料。主持人Lenny:通過這次對話,我意識到像你們這樣的公司,對AI的發展方向有著巨大的影響力。你們幫助實驗室發現自己的不足和需要改進的地方,而不僅僅是OpenAI等公司的負責人在引領AI的發展——你們也在其中發揮著重要作用。Edwin Chen:沒錯。現在的生態系統中,人們其實並不知道模型的發展方向,也不知道如何塑造它們,不知道人類在未來這一切中應該扮演什麼角色。所以我認為,我們有很多機會繼續引導這場討論。主持人Lenny:我知道你對這項工作對人類的意義有著非常深刻的見解,能談談嗎?Edwin Chen:我可能會有點哲學化,但這個問題本身就帶有哲學意味,所以請大家耐心聽我說。我們所做的工作,最直接的描述是“訓練和評估AI”,但我經常思考一個更深層次的使命:幫助客戶明確他們的“理想目標函數”——也就是他們希望自己的模型成為什麼樣的模型。一旦他們明確了這一點,我們就會幫助他們訓練模型朝著這個北極星目標前進,幫助他們衡量進步。但這其實非常困難,因為目標函數是豐富而複雜的。這就像養育孩子,定義和衡量 “成功”(如開心、經濟成就)遠比看 SAT 分數複雜。我們的工作是幫客戶找到 AI 的 “北極星目標” 並衡量其進度。核心是思考:是否在打造推動人類進步的系統?如何通過資料集訓練和衡量這種進步?是否在最佳化錯誤方向(如讓人類變懶)?衡量 “人類進步” 難度大,而點選量等表面指標易量化,但我們的意義正在於專注前者 —— 追求複雜目標函數,尋找匹配的資料,訓練出讓生活更豐富、激發好奇心與創造力的 AI。這很難,因為人類本質上是懶惰的——讓AI迎合人類的惰性,是提升參與度、讓各項指標好看的最簡單方法。所以,選擇正確的目標函數,並確保我們朝著這個目標最佳化,而不是被那些容易衡量的表面指標帶偏,這對我們的未來至關重要。主持人Lenny:哇,你的分享讓我對AI的打造、訓練以及你們所做的工作有了全新的認識。最後一個問題:創辦Surge之前,有什麼是你希望自己早知道的?很多人創業時都不知道自己會面臨什麼,你想對過去的自己說些什麼?Edwin Chen:我以前從來沒想過自己會創業。我喜歡做研究,一直很欣賞DeepMind——他們是一家了不起的研究公司,被收購後仍然能繼續做出色的科學研究。但我一直覺得他們是一個神奇的例外。所以我以前以為,如果我創辦公司,就必須成為一個整天盯著財務資料、開沒完沒了的會、做各種枯燥事情的商人——這是我一直很反感的。但沒想到事實完全不是這樣。我現在仍然每天沉浸在資料中,做自己喜歡的事——撰寫分析報告、和研究團隊交流。這本質上是“應用研究”,我們打造的這些出色的資料系統,正在真正推動AI的前沿發展。所以我希望自己早知道:你不需要把所有時間都花在融資上,不需要持續製造熱度,不需要變成自己不喜歡的樣子。只要打造出足夠優秀的產品,它自然能突破所有噪音,讓你獲得成功。如果我早知道這是可能的,我會更早開始創業。我希望這個故事能激勵更多人。主持人Lenny:這真是一個完美的結尾。我覺得這正是創業者需要聽到的話,這次對話一定會激勵很多創業者,尤其是那些想以不同方式做事的創業者。Edwin,非常感謝你今天的分享。Edwin Chen:謝謝大家,再見。 (創新觀察局)
Nature重磅:中國牽頭全球AI治理!這是阻止AI毀滅人類的唯一希望
"AI可能毀滅人類,而中國正在引領全球應對這場危機——其他國家必須加入!"你是否知道,全球AI發展正面臨一個致命悖論:我們正在以火箭般的速度開發AI,卻沒有建立相應的安全機制?Nature最新 editorial 發出震撼警告:中國提出的"世界人工智慧合作組織"(WAICO)可能是阻止AI毀滅人類的唯一希望,而美國等國家的不作為將使全球陷入危險境地!🔥 AI的雙面性:天使還是魔鬼?AI模型擁有令人驚嘆的能力,既能加速科學發現、推動經濟增長,也可能在不經意間造成災難性後果:• 加劇社會不平等:AI演算法可能強化現有的社會偏見• 助力犯罪活動:深度偽造技術已用於詐騙和政治操縱• 傳播虛假資訊:AI生成內容難以分辨真偽• 最可怕的威脅:部分頂尖研究者警告,超級智能AI可能在未來"毀滅人類""它們不完全理解世界,可能會以不可預測的方式失敗。" ——Nature editorial更令人擔憂的是,在AI開發的"百米衝刺"中,安全問題被嚴重忽視。許多專家擔心,當前的AI熱潮正在形成一個即將破裂的經濟泡沫,而全球卻缺乏統一的監管框架!🌐 全球AI治理:三國演義的現狀🇺🇸 美國:自由放任的"野蠻生長"美國作為全球AI技術的領導者,卻沒有國家層面的AI法規,僅靠各州零散的法律和企業自律。最新發佈的"AI安全指數"顯示,沒有一家美國公司得分高於C+。更令人擔憂的是,美國政府不僅沒有加強監管,反而在推動"創世任務"(Genesis Mission),為AI開發者提供前所未有的政府資料存取權,被比作"登月計畫"。"美國公司期望自己監管自己,同時又在無休止的競爭中。" ——Nature🇪🇺 歐盟:謹慎前行的"AI法案"歐盟去年推出的《AI法案》要求最強大的AI系統加強威脅分析,但實施效果尚不明確。媒體報導稱,企業正在向歐盟施壓,要求放寬法律限制。儘管有巨額罰款的威脅,但法案實施仍處於初級階段,實際效果有待觀察。🇨🇳 中國:快速行動的"監管先鋒"與美歐不同,中國自2022年以來已推出一系列AI法規和技術標準:• 要求AI開發者提交生成式AI模型進行部署前安全評估• 強制在AI生成內容上加入可見、不可磨滅的水印• 2025年上半年發佈的AI國家標準數量等於過去三年總和"中國在2025年上半年發佈的AI國家標準數量等於過去三年總和。" ——Concordia AI中國AI監管的核心理念是:既要推動AI廣泛應用,又要確保可追溯性和企業責任。儘管中國AI企業在"AI安全指數"上的得分低於西方同行(部分原因是未能充分應對災難性濫用風險),但其監管速度和系統性令人矚目。🌐 WAICO:中國提出的"AI聯合國"中國提出建立"世界人工智慧合作組織"(WAICO),旨在協調全球AI監管規則,同時"充分尊重各國政策和實踐的差異",並特別關注全球南方國家。WAICO的總部計畫設在上海,雖然細節尚未明確,但Nature認為:"建立這樣一個機構符合所有國家的利益,全球各國政府都應該加入。"WAICO不會直接強制執行AI規則(中國也表示支援聯合國主導的全球AI治理),但它可能成為各國逐漸凝聚共識的平台。🤝 為什麼中國方案值得關注?1️⃣ 中國AI的全球影響力中國推行"開放權重"政策,使全球公司越來越多地基於中國AI建構服務。中國AI模型的可獲取性和低成本正在重塑全球AI生態。"中國'開放權重'模型政策意味著全球公司越來越多地基於中國AI建構服務。" ——Nature2️⃣ 全球治理的迫切需求現有全球AI治理努力——如經濟合作與發展組織的AI原則和歐洲委員會的《人工智慧框架公約》——要麼不具約束力,要麼未得到有效執行。Nature建議,WAICO可以借鑑國際原子能機構(IAEA)的模式:各國同意限制AI開發並開放系統接受檢查,使各國能夠驗證彼此是否遵守規則。🌍 科學啟示:AI治理不是零和遊戲Nature editorial 發出重要警示:"AI治理不應被視為地緣政治競賽,認為一個國家的安全可以通過技術主導來保證。'獲勝'對大多數國家來說不是選項,AI軍備競賽不會保證人們更安全或更富裕。"相反,全球應共同合作,就什麼是安全的AI以及世界希望如何利用AI達成共識。中國學者Angela Zhang指出,儘管中國監管有其政治考量,但其基本動機與他國"相當相似":"他們不想被機器人消滅。"💡 科研人員和企業的行動指南1️⃣ 關注中國AI標準隨著中國AI影響力的擴大,瞭解中國的AI標準對全球研究人員和企業至關重要。忽視這一趨勢可能導致技術落後或合規風險。2️⃣ 參與全球對話科研人員應積極參與多邊對話,幫助評估什麼樣的全球治理既有效又現實。AI安全需要全球智慧,而非單一國家的解決方案。3️⃣ 平衡創新與安全企業和研究機構需要在追求創新的同時,主動加強內部AI安全機制,而不是等待監管強制要求。 (聖不可知)
“大交易”:一場遲到的美國AI戰略自救
前不久,前白宮人工智慧特別顧問本·布坎南(Ben Buchanan)在《外交事務》雜誌上拋出了他的“大交易”設想,華盛頓的政策圈似乎又找到了一個新的敘事框架。這位在2021至2025年間負責協調拜登政府AI政策的核心人物,試圖為美國AI發展勾勒一幅宏大藍圖:科技行業必須要與政府達成戰略協議,前者獲得能源基礎設施、人才管道和國家安全保護,後者則將AI整合進國防體系並確保其不破壞所謂的民主價值。這個提議聽起來既務實又理想主義——問題恰恰在於,它可能過於理想主義了。更令人玩味的是,就在布坎南構想這份“大交易”之後不久,DeepSeek正在以一種近乎諷刺的方式,拆解著他所依賴的核心假設。這家被美國晶片出口管制嚴密封鎖的公司發佈了DeepSeek V3.2,實測在開源模型中達到全球最高水平,與海外頂級閉源模型的差距縮小至約一個季度。該模型分為普通版和特別版:普通版性能對標 GPT-5,特別版則媲美 Gemini 3.0 Pro,尤其在數學與推理能力上表現突出。這不僅是一次技術突破,更是對美國“晶片遏制”戰略的一記響亮耳光。晶片政策的分歧:遏制還是“上癮”?在理解布坎南“大交易”的困境之前,我們必須先釐清美國AI戰略界內部一個長期存在但鮮被公開討論的根本分歧——關於對華晶片政策,決策圈內實際上存在著兩種截然不同的哲學。本·布坎南(Ben Buchanan)第一派可稱為“技術依賴派”或“上癮派”。這派觀點認為,應當允許中國大陸在一定程度上獲取美國的先進AI晶片,使其AI生態系統建立在美國技術基礎之上,形成一種戰略性依賴。這種策略的邏輯類似於毒品販子的手法:先讓對方上癮,然後控制供應鏈就能控制對方的技術發展節奏。輝達最初對中國大陸市場的態度——不斷推出降級版晶片如H800、H20來規避出口管制——某種程度上體現了這種思路。這一派相信,只要中國大陸市場的AI產業離不開美國晶片,華盛頓就永遠掌握著關閘的權力。第二派則是布坎南所代表的“全面遏制派”。在他們看來,任何對中國大陸的技術滲透都是危險的,必須在製造端實施最嚴格的封鎖,不給中國大陸任何獲取先進算力的機會。這種觀點在2022年10月拜登政府大幅擴展晶片管制時達到高峰,不僅限制先進晶片出口,還限制晶片製造裝置,甚至禁止美國公民為中國大陸半導體公司提供技術支援。布坎南在文中對中國大陸“軍民融合”戰略的惡毒指控,都清晰地顯示出他屬於這一陣營。然而諷刺的是,DeepSeek的成功恰恰證明了兩種策略可能都已失效。“上癮派”的夢想破滅了——中國大陸AI企業並沒有因為依賴美國晶片而束手就擒,反而在被斷供後激發出了驚人的技術創新能力。而“遏制派”的策略同樣遭遇挫敗——即便在最嚴格的出口管制下,中國大陸企業仍通過演算法最佳化、架構創新和可能的走私管道,實現了技術突破。正如智庫Stimson Center的分析所言,出口管制的“卡脖子”假設本身就是一個謬誤——每一次限制都會留下縫隙和漏洞,而目標國家的適應和創新能力往往被嚴重低估。更值得警惕的是,這種封鎖正在催生一個危險的結果:“設計出去”(designing out)。當美國技術被完全排除在外時,中國大陸企業別無選擇,只能開發完全繞過美國技術的替代方案。華為用麒麟9000s晶片替代高通,導致高通2024年損失6000萬套晶片銷售,就是一個典型案例。長期來看,這種“設計出去”將永久性地侵蝕美國在全球半導體生態系統中的地位——當中國大陸建立起完整的國產替代體系後,即便美國日後放鬆管制,市場份額也難以奪回。布坎南的“大交易”建立在全面遏制戰略能夠成功的假設之上,但現實已經在反覆證明,這個假設正在崩塌。能源幻覺與基礎設施的政治死結“大交易”的第一個支柱是政府為AI產業提供充足的能源基礎設施。布坎南在文中引用的資料令人震撼:到2028年,美國AI產業僅新增電力需求就將達到500億瓦,相當於整個阿根廷的用電量,資料中心可能消耗美國電力產量的12%。與此形成鮮明對比的是,中國大陸每年新增電力容量達12%,而美國在2005至2020年間幾乎沒有新增淨電力。這個對比看似有力,實則掩蓋了一個更深層的問題:為什麼美國在過去二十年間幾乎沒有新增電力?答案並非技術能力不足,而是美國社會在能源政策上陷入了一個幾乎無解的政治死結。一方面,任何大規模的新建電廠項目——無論是傳統化石能源還是核電——都會面臨環保團體、地方社區和監管機構的多重阻撓。美國的環境影響評估流程可以讓一個電廠項目耗費十年以上時間仍無法開工。另一方面,即便是清潔能源項目,也面臨著“不要建在我家後院”(NIMBY)效應的困擾。加州在可再生能源方面走在全美前列,但其電網卻經常因為峰值負荷而陷入危機,而新建輸電線路的項目同樣被環保和土地糾紛困住。布坎南樂觀地認為,AI驅動的能源繁榮將創造就業、加速清潔能源開發,實現“無碳化營運”。但這種敘事忽略了一個殘酷現實:在美國當前的政治生態下,任何大規模基礎設施建設都會遭遇曠日持久的黨派爭鬥、司法訴訟和監管審批。川普政府宣佈的5000億美元Stargate項目看起來宏大,但如果我們回顧川普第一任期內承諾的基礎設施投資有多少真正落地,就不難理解這些承諾的可信度。美國電力短缺狀況(@華盛頓大學)更諷刺的是,當前美國政治氛圍下,對AI的態度本身就充滿分裂。一部分人將AI視為新的經濟引擎和國家安全工具,另一部分人則擔心AI導致失業、隱私侵犯和社會不平等。在這種背景下,要求政府為AI產業大規模投資能源基礎設施,本身就可能引發激烈的政治反彈。那些在鏽帶州失去工作的選民,那些被高房價和生活成本壓得喘不過氣的中產階級,憑什麼要為矽谷科技巨頭買單,幫助他們獲得更多電力來訓練AI模型?中國大陸的優勢恰恰在於其政治體制能夠快速調動資源實施大規模基礎設施建設。當決策者確定AI是戰略重點時,電廠、資料中心和配套設施能夠以驚人的速度上馬。這不是單純的技術問題,而是治理模式的差異。布坎南的“大交易”假設美國政府能夠提供類似的支援,但這個假設本身就忽視了美國政治體制的結構性制約。人才政策的內在矛盾“大交易”的第二個支柱是維持國際人才管道。布坎南正確地指出,70%的頂級在美AI研究人員出生在國外,65%的領先美國AI公司至少有一位移民聯合創始人。但他對人才政策面臨的困境卻語焉不詳。川普政府在移民政策上的立場與布坎南的設想存在根本衝突。將H-1B簽證費用提高到10萬美元,大幅收緊國際學生入學政策(2025年可能導致國際學生入學率下降30%-40%),這些措施的政治邏輯與“保持AI人才流入”完全相悖。但問題的關鍵在於:這些移民政策並非出於無知或短視,而是回應了美國社會中一股強大的民粹主義情緒。對許多美國選民而言,保護美國就業、防止移民搶走機會是比維持AI領先地位更直觀、更緊迫的關切。當布坎南談論引進更多外國AI人才時,政治現實是,這種政策會被解讀為“讓外國人來搶美國人的工作”。技術精英和政策制定者可以用國家安全和經濟競爭力來論證開放移民的必要性,但這套話語在政治市場上的說服力遠不如美國優先來得有力。更深層的矛盾在於,布坎南一方面希望政府幫助AI產業獲得更多國際人才,另一方面又主張將AI深度整合進國家安全體系。但任何有過安全審查經驗的人都知道,涉及國防和情報的項目對人員背景有極其嚴格的要求。當AI越來越多地被用於軍事和情報用途時,如何平衡人才開放性和安全審查的嚴格性?那些來自對手國家的研究人員——包括大量來自中國大陸的AI專家——是否還能參與最前沿的AI研發?布坎南似乎希望魚與熊掌兼得:既要保持美國作為全球AI人才磁石的地位,又要加強對AI技術的國家安全管控。但這兩個目標存在內在張力。中國大陸正在積極招募AI專家回國,而美國日益收緊的移民政策和日益政治化的科研環境,可能會加速這種人才回流。當美國大學裡的中國大陸留學生發現自己無論多麼優秀都難以獲得工作簽證,當他們的研究因為敏感性而受到限制時,選擇回國就成了理性選擇。而這正是布坎南所擔心的人才外流。政府-產業合作的結構性障礙“大交易”設想的核心是政府與科技行業建立深度合作關係。但這個設想面臨一個尷尬的現實:雙方之間存在著深刻的互不信任。從科技行業的角度看,政府意味著繁瑣的監管、緩慢的決策流程和對商業創新的束縛。矽谷文化崇尚“快速行動,打破陳規”(Move fast and break things),而政府系統的特點恰恰是謹慎、官僚和風險規避。更重要的是,科技公司擔心與政府深度合作會限制它們的商業自由。如果將AI系統深度整合進國家安全體系,這意味著更嚴格的出口管制、更多的安全審查、更少的國際市場機會。對那些在全球營運的科技巨頭而言,這是一個巨大的代價。從政府的角度看,科技公司則是一群難以管束、唯利是圖、不考慮國家安全的商業實體。OpenAI、Google、Meta這些公司都曾因為與軍方和情報機構的合作項目引發內部員工抗議。2018年,Google員工成功迫使公司退出了與國防部的Maven項目。這種企業內部對軍事合作的牴觸,讓政府對科技公司的可靠性深表懷疑。布坎南在白宮任職期間主導的一些政策,恰恰體現了這種張力。拜登的AI行政命令要求科技公司自願做出安全承諾,但這些承諾大多停留在原則層面,缺乏強制約束力。而當政府試圖實施更嚴格的監管時,科技公司又會動用強大的遊說力量來阻撓。這種貓捉老鼠的遊戲,很難想像能夠昇華為布坎南所設想的“大交易”式的戰略夥伴關係。更根本的問題在於,“大交易”假設政府和產業能夠就AI的發展方向達成一致。但實際上,雙方對許多核心問題存在嚴重分歧:AI應該多大程度上開放?誰應該控制最強大的AI系統?AI帶來的經濟收益應該如何分配?AI技術應該向那些國家和實體出口?在這些問題上,政府和科技公司的利益遠非完全一致,而且內部也存在嚴重分歧。要在這樣的基礎上達成一個覆蓋能源、人才、國家安全等多個維度的“大交易”,難度之大可想而知。時間的殘酷性與政策的惰性布坎南正確地指出,AI進步速度極快,政策制定者必須在極短時間內做出重大決策。但他的“大交易”卻要求完成一系列在美國政治體制下通常需要數年甚至數十年才能實現的任務:大規模能源基礎設施建設、移民政策根本性改革、政府-產業關係的深刻重構、國家安全體系的全面AI化。這裡存在一個根本性的時間錯配:AI技術的演進以月為單位,而美國政治體制的變革以年甚至十年為單位。在拜登任期內,布坎南主導的AI行政命令確實取得了一些進展,建立了AI安全研究所等機構,推動了一些自願承諾。但這些成就與“大交易”設想的宏大目標相比,幾乎微不足道。而現在,川普政府正在系統性地拆除拜登時期建立的許多AI治理框架,包括放鬆晶片出口管制——這正是布坎南最擔心的事情。政治周期的不穩定性使得任何長期戰略都難以為繼。一個政府費盡心力建立的政策框架,可能在下一個政府上台後被全盤推翻。在這種情況下,要求政府和產業就一個需要十年、二十年才能見效的“大交易”達成共識,無異於痴人說夢。中國大陸的體制優勢恰恰在於其政策的連續性和長期性——當中國大陸將AI確定為戰略重點時,這個戰略可以持續數十年不變,資源投入也能夠保持穩定。美國的民主制度有其獨特價值,但在需要長期戰略規劃的技術競爭中,這種制度的弱點暴露無遺。布坎南的“大交易”本質上是一個防禦性戰略,它的出發點是“防止失去領先地位”而非“創造新的突破”。這種心態本身就反映了一種焦慮和不自信。當一個國家的AI戰略主要由防止對手超越而非創造革命性創新驅動時,它實際上已經喪失了先機。中國大陸的AI戰略雖然也包含趕超美國的目標,但更重要的是建立自主創新能力和獨立的技術生態。DeepSeek的成功正是這種戰略思維的體現——與其被動等待美國放鬆封鎖,不如主動探索新的技術路徑。難以癒合的裂痕最終,“大交易”之所以難以實現,根源在於它試圖彌合的那些裂痕可能本就無法癒合。美國社會在AI問題上的分裂是深層次的。技術精英認為AI是下一個增長引擎,必須不惜一切代價保持領先;普通民眾擔心AI導致失業和不平等;環保主義者反對為AI建設消耗巨量資源的資料中心;民族主義者要求限制移民和技術出口;國際主義者強調開放合作的重要性。這些立場之間的矛盾,不是一個“大交易”就能調和的。政府和科技公司之間的不信任是結構性的。科技公司希望政府提供支援但不要干預,政府希望科技公司服從國家利益但又不完全信任它們。這種關係更像是一種脆弱的共生而非穩固的夥伴關係。美國和中國大陸的競爭是長期的、全方位的,不可能通過單一的技術封鎖或單一的政策框架來解決。中國大陸的制度優勢在於能夠集中資源和長期規劃,美國的制度優勢在於創新活力和市場機制。但當競爭進入到需要國家動員和長期規劃的階段時,美國的制度優勢可能反而成為劣勢。布坎南的“大交易”建立在一個過於樂觀的假設之上:只要政府和產業達成正確的協議,美國就能夠延續其在AI領域的領先地位。但現實可能更加殘酷——不是美國不夠努力,不是政策不夠好,而是歷史的鐘擺正在擺向另一邊。技術霸權從來不是永恆的,曾經的領先者往往會在新的技術範式轉換中失去優勢。AI可能正是這樣一次範式轉換,而“大交易”式的修補方案,或許只是延緩衰落而非逆轉趨勢。在DeepSeek證明封鎖無效、川普政府拆除拜登時期的AI治理框架、美國社會在移民和能源政策上陷入僵局的當下,布坎南的“大交易”更像是一個精緻的政策幻想,而非可行的戰略方案。這並非說布坎南的診斷不對——美國在AI領域確實面臨能源、人才、安全整合等多重挑戰。問題在於,他開出的藥方需要一個在當前美國政治現實中幾乎不存在的條件:高度共識、長期承諾、政府效率和超黨派合作。當這些前提條件都不具備時,“大交易”就只能停留在紙面上,成為又一個華盛頓政策圈裡的美好願景,而非能夠真正塑造現實的戰略行動。 (心智觀察所)
搶跑未來!麥肯錫點名這 18 個未來賽道
導讀未來 15 年全球經濟增長的核心動力在那?麥肯錫全球研究院近日發佈文章,指出從 AI 軟體、太空探索到核裂變、模組化建築,18 個被重點圈定的 “未來賽道”,正憑藉技術突破、巨額投資與龐大市場的 “組合拳”,成為重塑商業格局的關鍵力量。文章基於 2024 年研究,回顧 2005-2023 年已湧現的 12 個競爭領域,分析其特徵與表現,提出 “領域創造要素”,並識別出 18 個未來潛在領域及價值潛力,同時為企業、投資者等主體提供定位與決策建議。一、核心概念1. 定義“競爭領域”(Arenas) 是擁有最快增長速度與最強競爭動態性的行業,其本質是 “高增長 + 高動態性” 的結合體,表現為新進入者多、研發投入高、經濟利潤豐厚,且存在 “高強度制勝競賽”—— 回報巨大但被取代風險高。2. 領域創造要素(3 大 “配方”)二、2005-2023年湧現的12個競爭領域12個競爭領域:雲服務、電動汽車(EV)、支付、電子商務、消費電子、生物製藥、視聽娛樂、工業電子、半導體、消費網際網路、軟體、資訊驅動的商業服務。1. 關鍵表現(對比非領域行業)(1)增長能力市值份額:2005-2023 年,12 個領域的總市值佔比近乎翻倍;營收增長:以電子商務為例,2005 年營收 150 億美元→2023 年超 1 兆美元,增速遠超整體經濟;經濟利潤:2005 年佔全球總經濟利潤的 9%→2023 年升至 35%,2023 年頭部領域為消費網際網路(900 億美元)、消費電子(760 億美元)、半導體(620 億美元),而 2024 年 Nvidia 單家企業經濟利潤達 660 億美元(超 2023 年整個半導體行業樣本)。(2)動態性動態性以 “洗牌率” 衡量,即企業市場份額累計變化。2. 區域分佈(2023 年)美國:主導地位,佔 12 個領域總市值的75%(2020 年為 65%),除工業電子外,在所有領域均為領導者;中國:佔總市值的 10%,在電子商務、半導體、消費網際網路、EV 領域表現突出;歐洲:在生物製藥、工業電子、資訊驅動的商業服務領域有一定份額,但在非領域行業佔比 21%(領域僅 10%),整體存在感較弱。三、未來18個潛在競爭領域(2025年後)1. 分組與領域列表報告指出,未來 18 個潛在競爭領域總體可以分為5大類股,如圖所示:2. 未來價值潛力(截至 2040 年)報告從多個方面預測了18個潛在競爭領域的價值潛力:預計收入:29 兆 - 48 兆美元;預計利潤:2 兆 - 6 兆美元;GDP 貢獻:佔全球總 GDP 增長的18%-34%;利潤與收入差異:以半導體(營收第六,利潤第三,利潤率 20%-25%)和 EV(營收第四,利潤第七,利潤率 4%-10%)為例,行業利潤率導致利潤排名與收入排名存在偏差。四、結語從過去二十餘年雲服務、EV 等 12 個 “競爭領域” 重塑產業格局,到未來十五載半導體、AI、太空等 18 個賽道有望撐起 29 兆 - 48 兆美元市場、貢獻全球 34% GDP 增長,研究勾勒出 “領域驅動增長” 的核心邏輯 —— 技術突破、 升級型投資與龐大市場構成的 “領域密碼”,始終是行業爆發的關鍵。這些未來賽道不僅將改寫商業競爭規則,更會重塑人們的消費、健康與生活方式,同時也帶來地緣協作、倫理規範等新命題。研究指出,18 個未來潛在競爭領域的發展將受到三大核心 “swing factors(搖擺因素)” 的影響——地緣政治、AI發展、綠色轉型,這些因素不僅會決定領域的增長速度與規模,還可能重塑其全球佈局與價值分配邏輯。對於企業、投資者與從業者而言,看懂 “領域” 的演變規律、啟動 “領域雷達” 精準定位,既是把握增長紅利的前提,也是在加速變革中站穩腳跟的關鍵。未來已來,那些能提前錨定賽道、主動擁抱變革的參與者,終將成為下一輪產業浪潮的引領者。 (稻香湖下午茶)
川普計畫推出“Genesis Mission”,以加強美國人工智慧發展
美國總統唐納德·川普計畫於周一在白宮,通過行政令推出一項名為“創世任務”(Genesis Mission)的計畫,以推動美國的人工智慧發展,據一名官員透露。11 月 19 日,美國總統唐納德·川普、埃隆·馬斯克(左二)和輝達公司首席執行官黃仁勳(右二)在華盛頓舉行的美沙投資論壇上。 攝影:Brendan Smialowski/法新社/蓋蒂圖片社能源部辦公廳主任卡爾·科伊(Carl Coe)周三在田納西州諾克斯維爾舉行的“能源機遇會議”上表示,此舉旨在表明川普政府認為即將到來的 AI 競賽的重要性可與曼哈頓計畫或太空競賽相提並論。科伊說:“我們將創世任務視為同等等級的項目。”科伊未透露更多細節,但表示行政令可能會指示國家實驗室在新興人工智慧技術上開展更多研發,並可能涉及公私合作夥伴關係。一名白宮官員(匿名)表示,在正式公佈之前,圍繞行政令的討論都屬於猜測。川普政府還在準備另一項行政令,將授權司法部就州級人工智慧監管提起訴訟——如果其認定某些州法規違反憲法,並可能削減對制定過於繁瑣或限制性 AI 法律的州的聯邦資金。這一推進措施出現在川普本周在白宮會見沙烏地阿拉伯王儲穆罕默德·本·薩勒曼之後。雙方重點討論敲定防務和經濟協議。在這些協議中,川普表示將批准向沙烏地阿拉伯出售先進的 AI 晶片;與此同時,輝達(Nvidia)和埃隆·馬斯克旗下 xAI 宣佈計畫與沙烏地阿拉伯支援的 AI 企業合作,共同開發資料中心。川普周三在沙烏地阿拉伯投資會議上表示,將與合作夥伴共同“打造全球規模最大、最強大、最具創新性的 AI 生態系統”。他說:“我們將推行單一審批程序,讓你們無需經歷 50 個州的繁瑣流程。”他補充道,如果存在一系列不一致的州級監管,將會是“一場災難”,因為企業可能被“某一個覺醒州(woke state)”的政策所阻礙。周二,川普呼籲國會議員在即將到來的國防支出法案中,或以單獨立法的方式,通過聯邦層面的人工智慧監管標準。川普在社交媒體上寫道:“如果我們不這樣做,中國將在人工智慧競賽中輕鬆趕上我們。”輝達首席執行官黃仁勳周二與川普會面,並出席了當晚為沙烏地阿拉伯王儲舉辦的晚宴。黃仁勳此前也曾公開表達類似觀點,認為中國的監管體系更為簡化,這給了北京在全球 AI 競爭中的優勢。眾議院多數黨領袖史蒂夫·斯卡利斯(Steve Scalise)本周對 Punchbowl News 表示,共和黨領導層正在“研究”是否將相關條款加入《國防授權法案》(NDAA)。這一法案規定五角大樓預算,常被用於承載其他政策措施。參議院曾在 7 月的一項預算案中阻止加入該措施,反對者認為這可能阻礙在兒童安全及版權控制等方面對新興技術的監管嘗試。川普在 7 月公佈了一項廣泛的人工智慧政策藍圖,旨在讓 AI 公司在美國更容易發展,也讓美國盟友更容易獲得關鍵的硬體和軟體。該藍圖鼓勵能源部及其他機構與私營部門及國家實驗室合作,投資“自動化、雲驅動實驗室”,用於工程、材料科學、化學、生物學和神經科學等多個科學領域。同時還要求政府擴大國家實驗室的 AI 研究與培訓。輝達上月與能源部達成協議,將擴大人工智慧與量子計算方面的研究,包括在聯邦科研設施部署七台包含輝達 AI 晶片的新型超級電腦。 (P.T.G.)
輝達黃仁勳:我對AI發展趨勢的看法
10月8日晚間,輝達創始人、CEO黃仁勳接受 CNBC 專訪,圍繞 AI 產業鏈、美國與中國的競爭格局、公司投資策略以及行業趨勢等話題發表系統性看法。下面是我整理的本次訪談核心內容,分享給大家。黃仁勳的核心觀點如下:1、過去六個月,計算需求呈指數級大幅增長。2、AI從有趣變成了具備實用性,已經能讓AI企業盈利。3、AI模型領域,中美雙方水平接近,但中國的AI應用發展速度極快。4、對xAI正在進行的融資興奮,他幾乎想參與埃隆·馬斯克每一個項目。5、對企業而言,真正有價值的是專用智能;而對消費者來說,有價值的則是通用智能。6、輝達與OpenAI的合作模式,和AMD不同。AMD在產品還沒完全成型前就願意讓出公司10%股權。+以下為對本次訪談核心內容的總結(有些許調整,但不影響閱讀):一、輝達與 OpenAI 的合作模式合作歷史悠久:早在 2016 年,輝達就向當時的非營利初創公司(即後來的 OpenAI)交付了全球首台 AI 超級電腦 DGX‑1,奠定了長期合作基礎。合作方式獨特:輝達主要通過微軟 Azure、甲骨文 OCI、CoreWeave 等雲平台向 OpenAI 提供 GPU 算力。近期開始直接向 OpenAI 銷售完整的 AI 基礎設施(包括 CPU、GPU、網路晶片、交換機及軟體棧),幫助其自建超大規模資料中心。資金與股權安排:OpenAI 目前現金不足,建設每 10GW AI 工廠需約 500‑600 億美元。輝達將通過未來收入、股權或債務方式參與融資,但並非必須持股。黃仁勳坦言自己對當初在 OpenAI 的投資不足感到遺憾,認為 OpenAI 是史上最具價值且盈利能力極強的 AI 公司。與 AMD 的對比:AMD 在與 OpenAI 合作時,甚至在產品未成熟前就讓出約 10% 股權,黃仁勳認為這“聰明”。輝達則更注於技術領先和全端解決方案,保持對晶片和系統的完整控制。二、AI 產業的商業化處理程序新一代 AI 公司已實現盈利:過去幾年,OpenAI、Anthropic、xAI 等模型研發企業主要靠融資維持,業務多為虧損。近期模型具備推理、聯網檢索、工具使用等實用功能,使用者付費意願顯著提升,AI 服務已進入盈利階段。企業級 AI 需求爆發:以 Cursor 為代表的 AI 程式設計工具已在輝達內部全員使用,顯著提升生產力。企業級 AI 應用正成為增長最快的細分市場,推動 AI 從“有趣”向“必需”轉變。算力需求指數級增長:過去六個月,AI 推理與生成能力提升帶來計算需求的雙重指數增長。每建成一座 AI 工廠(約 10GW)需 500‑600 億美元資本支出,全球 AI 基礎設施總規模已達約 2.5 兆美元,CAPEX 約 5 千億美元,仍處於起步階段。三、中美 AI 競爭態勢技術堆疊整體差距不大:黃仁勳指出,在能源、晶片、基礎設施等層面,中國已具備或超過美國的實力;在 AI 模型層面,兩國水平接近,歐美模型(OpenAI、Anthropic、Google)在性能上略勝一籌。開源模型優勢在中國:中國在開源模型數量和活躍度上遠超美國,這為本土企業快速迭代提供了肥沃土壤。應用層面是關鍵競爭點:中國的 AI 應用落地速度極快,社會接受度高且監管相對寬鬆,導致 AI 產品在消費端和企業端的滲透率迅速提升。黃仁勳警示,美國必須加速自身 AI 應用的推廣,否則在這場工業革命的勝負中處於劣勢。市場策略建議:美國應確保最先進的晶片和技術堆疊優先供給本國及盟友,同時通過平台化(類似應用程式商店、作業系統)吸引全球開發者使用美國技術。目標是五年內美國技術堆疊佔全球 AI 開發的 80%,否則將失去競爭主動權。四、投資與合作展望對 xAI 的興趣:黃仁勳對馬斯克的 xAI 項目表現出極大熱情,計畫參與約 20 億美元的融資,視其為未來重要合作夥伴。對 CoreWeave 的持續關注:他同樣對雲算力提供商 CoreWeave 抱有期待,認為自己過去的投資仍有提升空間。投資哲學:黃仁勳多次提到“當初沒多投點”,這反映出他對潛在高價值 AI 初創公司的強烈興趣,未來仍會在全球範圍內尋找並佈局全端 AI 生態系統的關鍵企業。五、地緣政治與人才政策地緣政治風險:技術層面的風險公司能夠應對,但政策與國際關係帶來的不確定性更具挑戰。輝達正積極向各國政府科普 AI 本質,爭取制定有利於全球合作的政策。H‑1B 簽證費用爭議:美國近期對 H‑1B 簽證額外收取 10 萬美元費用,黃仁勳認為這對移民家庭是沉重負擔,呼籲政策進一步最佳化,以保持美國對全球頂尖人才的吸引力。六、對未來的展望專用智能 vs 通用智能:對企業而言,專用智能(針對特定業務場景的 AI)更具價值;對普通消費者,通用智能(能夠完成多種任務的 AI)更受歡迎。輝達將繼續在兩者之間尋找平衡。AI 工具的革命性:當前 AI 已經從“人類使用的工具”轉變為“能夠自主使用工具的技術”,如 AI 瀏覽器、自動預訂、程式碼生成等,這將極大提升勞動生產率,推動全球產業規模向兆美元等級邁進。基礎設施建設的起點:當前的算力需求激增標誌著新一輪 AI 基礎設施建設的起點,也是新工業革命的開端。輝達正致力於讓更多使用者獲得高效算力,推動 AI 向更高水平發展。七、本次訪談內容總結算力是AI能力發展的最底層基礎設施。美國在模型性能上仍有優勢,但中國在開源模型領域佔據優勢。AI產業化最終勝出的關鍵點,在於AI應用層面的競爭。誰能更快落地形成生態,誰就是最終勝家。企業級AI工具會優先產生盈利,但長期來說使用者級通用智能工具才是最廣闊的市場,背後是兆美元等級的廣闊市場。 (老張的求知思考世界)